9 月 20 日,据《财富》、《金融时报》等多家外媒报道,谷歌已经利用一台 53 量子比特的量子计算机实现了传统架构计算机无法完成的任务,即在世界第一超算需要计算 1 万年的实验中,谷歌的量子计算机只用了 3 分 20 秒。
与之对比的是,2019年9月18日,,华为重磅发布一款重量级的产品——Atlas 900,华为表示这款产品是当前全球训练速度最快的AI集群。华为当前条件下,天文学家要从这20万颗星星中,找出某种特征的星体,相当困难,一个天文学家需要耗费169天的工作量,才能完成这项工作。现在用上Atlas 900,只用10秒,就从20万颗星星中检索出了相应特征的星体。但与量子计算相比,显得慢了很多……这是迄今为止表明量子计算机超越传统架构计算机,并走向实用化最为强烈的迹象。虽然相关论文上传至 NASA 后不久即被删除,但还是有眼疾手快的读者及时保存了论文。谷歌是否真的实现了量子霸权?这一实验算不算一个里程碑事件?读者可以去论文中寻找答案。论文链接:
https://drive.google.com/file/d/19lv8p1fB47z1pEZVlfDXhop082Lc-kdD/view
这篇论文的摘要写道:量子计算机的诱人前景在于量子处理器上执行某项计算任务的速度要比经典处理器快指数倍,而根本性的挑战是构建一个能够在指数级规模的计算空间中运行量子算法的高保真度处理器。在这篇论文中,谷歌研究者使用具有可编程超导量子比特的处理器来创建 53 量子比特的量子态,占据了 2^53∼10^16 的状态空间。重复性实验得到的测量值对相应的概率分布进行采样,并利用经典模拟加以验证。
谷歌的量子处理器大约只需 200 秒即可对量子电路采样 100 万次,而当前最优的超级计算机完成同样的任务大约需要 1 万年。这相对于所有已知的经典算法有了巨大的速度提升,是在计算实验任务中实现的量子霸权,预示着下一个万众瞩目的计算范式的到来。
如果读者想要了解量子计算到底是什么,可以看看下面这篇教程,它不需要我们理解量子力学就能有一个整体的理解:
教程地址:https://arxiv.org/abs/1708.03684
谷歌的论文迅速在量子计算研究社区内传播,而「谷歌实现量子霸权」的消息也不胫而走,成为了上周末科学领域的一个重大新闻。在知乎上,有关这一问题的讨论瞬间吸引了 3000 多万次点击。
量子霸权(quantum supremacy)是指量子计算在某些任务上拥有超越所有传统计算机的计算能力。谷歌的研究人员声称已经实现量子霸权,这意味着最新的量子计算机能力已经达到了目前最为强大的超算也无法企及的程度——它可以在 3 分 20 秒内完成特定任务的运算,而目前世界排名第一的超级计算机、美国能源部橡树岭国家实验室的「Summit」执行同样任务需要大约一万年时间。
如何评价谷歌宣称实现量子霸权的研究?量子计算领域杰出科学家、原香港中文大学副教授、现腾讯量子实验室杰出科学家张胜誉在获知消息之后表示,历史上谷歌硬件组一直做得很好,相信谷歌的研究是有真实性的。量子霸权的实现取决于很多因素,重要的是谷歌的确实现了 50 比特以上、各方面参数接近优秀的系统,这一点难能可贵。
不过,张胜誉认为谷歌主张的量子计算双指数发展规律并不太可能实现。
麻省理工学院量子物理博士在读的 @ 少司命 则对于这篇论文进行了简单的解读:
在硬件方面,谷歌家一直用的是超导电路系统,这里是 54 个物理比特 (transmon) 排成阵列,每个比特可以与临近的四个比特耦合在一起,耦合强度可调 (从 0 到大概 40MHz)。
文章最重要的部分,谷歌在多项式时间内实现了对一个随机量子电路的采样,而在已知的经典计算机上需要的时间则非常非常之久,像文中实现的最极端的例子是,对一个 53 比特 20 个 cycle 的电路采样一百万次,在量子计算机上需要 200 秒,而用目前人类最强的经典的超级计算机同样情况下则需要一万年。亦即在这个问题上,量子实现了对经典的超越。*
这里的 cycle 指的是对这些比特做操作的数目,一个 cycle 包含一系列单比特操作和双比特操作,可以近似理解为电路的深度 (circuit depth)。对于最大的电路,即 53 个比特 20 个 cycle 的情况,在量子处理器上做一百万次采样后得到 XEB 保真度大于 0.1% (5 倍置信度),用时大概 200 秒。而要在经典计算机上模拟的话,因为比特数目很多整个的希尔伯特空间有 2^53~10^16 而且还有那么多电路操作,这已经超出了我们现在超级计算机的能力 (within considerable time)。
就像文中举的另一个例子,用 SFA 算法大概需要 50 万亿 core-hour(大概是一个 16 核处理器运行几亿年吧), 加 10^13 kWh 的能量 (也就是一万亿度电...),可以想见是多么难的事情了。而量子这个问题上为啥会比经典好也非常容易理解,用到的就是量子运算的并行性,即量子态可以是叠加态可以在多项式时间内遍历整个希尔伯特空间,而经典计算机模拟的话需要的资源则是随着比特数目指数增加的。
当然有没有可能是有些更好的经典采样算法和量子的差不多,只是我们没有找到呢?文中没有给出很直接的回答,他们认为从复杂度分析来讲经典算法总是会随着比特数和 cycle 指数增加的,而且即使未来有一些更好的经典算法,到时候量子的处理器也发展了所以还是会比经典的好。
最后 @ 少司命 认为,我们对于谷歌新研究感到振奋的同时也要保持清醒,我们离着实现量子计算的完全功力还有很远的距离。硬件上有集成化的问题,比如这里的超导比特系统要加微波 control 要谐振腔 readout,比特数目增加后有空间不足和 cross-talk 等各种问题,远远不止我们图中看到的一个小芯片那么简单。再一个比特数多了电路深度大了怎么继续提高保真度也是很大问题,像这篇文章里 53 个比特到第十几个 circuit cycle 时候保真度只有 10 的负二次方量级了,怎么 decorrelate error 实现量子纠错,最终实现容错量子计算等等,这些都是硬件上的挑战。
算法上,除了这里的采样问题(由此延伸的可以解决的问题其实是非常有限的),又有哪些问题是可以证明量子比经典有显著优势的,可不可以设计一些算法使得量子计算机能解决经典不能解决的问题,或者量子比经典有显著的加速,就像文章最后所说的:
在 NISQ(noisy-intermediate scale quantum computer) 的时代 (如下图),虽然我们离绿色真正的容错通用量子计算机还很远,但是现在已经开始进入到蓝色区域相信在未来几年会有一些
当然,@ 少司命只是表达了自己的看法,至于论文究竟如何,大家还需要自己去读一下。
以下是谷歌论文《Quantum Supremacy Using a Programmable Superconducting Processor》的大部分内容,供大家参考:
引言
20 世纪 80 年代早期,Richard Feynman 提出,量子计算机将成为解决物理、化学难题的有效工具,因为用传统计算机模拟大规模量子系统的开销呈指数级增长。实现 Feynman 所描述的愿景需要面临理论和实验方面的重大挑战。首先,量子系统能否被设计为一个足够大的计算(希尔伯特)空间来执行计算并且错误率够低、速度够快呢?其次,我们能否提出一个对经典计算机来说很难但对量子计算机来说很容易的问题?谷歌的研究者通过一个超导量子比特处理器在一个新的基准任务中解决了上面两个问题。该实验是迈向量子霸权的一个里程碑事件。
谷歌的研究者通过实验证明,量子加速可以在现实世界的系统中实现,而且不受任何潜在物理定量的限制。量子霸权也预示着有噪声的中等规模量子(Noisy Intermediate- Scale Quantum,NISQ)技术的到来。该基准任务可以直接应用于生成可证明的随机数;这种计算能力也可以用于优化、机器学习、材料科学、化学等领域。然而,完全实现量子计算还需要设计具有容错能力的逻辑量子比特。
为了实现量子霸权,研究者在误差校正方面也实现了许多技术突破。他们开发了快速、高保真门,可以在二维量子比特阵列上同时执行。他们使用交叉熵基准(XEB)在组件和系统层面校准了用到的量子计算机,并对其进行了基准测试。最后,他们使用组件级的保真度来准确预测整个系统的性能,进一步表明量子信息在扩展至大型系统时表现与预期一致。
为了展示量子霸权,研究者在一个伪随机量子电路输出的采样任务中将他们的量子计算机与当前最强的超级计算机进行了比较。随机电路是进行基准测试的一个合理选择,因为它们没有结构,因此可以保证有限的计算难度。研究者通过重复应用单量子比特和双量子比特逻辑运算来设计一组量子比特纠缠的电路。对量子电路的输出进行采样,可以产生一组比特串(bitstring),如 {0000101, 1011100, ...}。由于量子干涉,比特串的概率分布类似于激光散射中的光干扰产生的斑点强度模式,因此,一些比特串比其他比特串更容易出现。随着比特数和门循环数量的增加,用经典计算机计算这种概率分布的难度呈指数级增加。
图 1:Sycamore 量子处理器。a. 该处理器的布局,有 54 个量子比特,每个量子比特用耦合器(蓝色)与四个最近的量子比特相连;b. Sycamore 芯片的光学图像。
研究者设计了一个名为「Sycamore 的」量子处理器,包含一个由 54 个 transmon 量子比特组成的二维阵列,每个量子比特都以可调的方式与周围四个最近邻的量子比特耦合。连接是向前兼容的,使用表层代码进行误差修正。该设备的一个关键系统设计突破是实现高保真的单和双量子比特运算,这不仅是在隔离的情况下,而且在对多个量子比特同时进行门运算的情况下,还能进行实际的计算。
在一个超导电路中,导电电子凝聚成宏观量子态,使电流和电压具有量子物理特性。该量子计算机使用的是 transmon 量子比特,可以看做是 5-7GHz 的非线性超导谐振器。该量子比特被编码为谐振电路的两个最低量子本征态。每个 transmon 有两个控制器:一个用来激发量子比特的微波驱动器,另一个用来调整频率的磁通控制器。每个量子比特被连接到一个用于读取其状态的线性谐振器。
如下图 1 所示,每个量子比特也使用一个新的可调耦合器与周围相邻的量子比特相连。该耦合器的设计可以实现从 0 到 40MHz 的量子间耦合快速调整。由于一个量子比特不能正常工作,该装置其实使用了 53 个量子比特和 86 个耦合器。
图 2. 系统规模的 Pauli 和测量误差。a.Pauli 误差(黑、绿、蓝)的经验累积分布函数和度数误差(橙);b. 展示单量子比特和双量子比特 Pauli 误差的热图。
量子霸权的保真度估计
伪随机量子电路生成的门序列(gate sequence)如下图 3 所示。形成「量子霸权电路」的门序列设计用于将创建高度纠缠态(highly entangled state)所需的电路深度最小化,从而保证计算复杂性和经典难度。
图 3:量子霸权电路的控制操作。a. 实验中使用的量子电路示例;b. 单量子比特和双量子比特门的控制信号波形图。
谷歌研究者模拟了实验中用在经典计算机上的量子电路,这样做是为了实现两个目的:(1)在可能的情况下通过可简化的电路来计算 F_XEB,进而验证量子处理器和基准测试方法(上图 4a);(2)估算 F_XEB 以及采样硬件电路所需的经典计算开销(上图 4b)。在多达 43 个量子比特的情况下,研究者利用薛定谔算法(SA)来模拟完整量子态的演化,发现 Jülich 超级计算机(10 万核心、250TB)能运行最大的用例。
如果超出 43 量子比特,则没有足够的 RAM 来存储量子态。对于量子比特数量更多的情况,研究者利用薛定谔-费曼混合算法(hybrid Schrödinger-Feynman algorithm,SFA)在谷歌数据中心运行,以计算单个比特串的振幅。SFA 算法将电路分解为两个量子比特块,并在使用一种类似于费曼路径积分的方法将它们连接起来之前,通过薛定谔算法高效地模拟每个量子比特块。虽然 SFA 算法更能节约内存,但随着连接量子比特块的路径和门数量的指数增长,电路深度也相应增加,因而该算法的计算开销也呈指数增加。
在谷歌云服务器上,研究者做出估计,利用 SFA 算法执行 0.1% 保真度的同一任务(m = 20)将花费 50 万亿核心小时(core-hour),消耗 1 拍瓦(petawatt)时的能量。然而,对量子处理器上的电路采样 300 万次只需 600 秒,采样时间受限于控制硬件通信。事实上,量子处理器纯工作时间约为 30 秒。这个最大电路的比特串样本在网络上存档。
人们可能想知道,算法创新能够将经典模拟提高多少。基于复杂性理论,研究者做出假设,该算法任务的开销在 n 和 m 上都是指数级的。的确,过去数年,模拟算法一直在稳步改进。研究者希望最终实现较本文中更低的模拟开销,但预计将始终会被更大量子处理器上的硬件提升所超越。
未来会怎么样?
凡此种种,量子处理器最终实现了量子计算领域的霸权。谷歌研究者期望量子处理器的计算能力可以继续以双指数率增长:模拟量子电路的经典开销随计算体积的增大而增加,并且硬件的提升将有可能遵循量子处理器的摩尔定律,使得计算体积每几年就增大一倍。为了保持双指数增长率并最终提供能够运行 Shor 或 Grover 等已知的量子算法所需的计算体积,量子误差校正工程将成为以后的关注重点。
由 Bernstein 和 Vazirani 制定的「扩展邱奇-图灵论题(Extended Church-Turing Thesis)」声称,图灵机器可以有效地模拟任何「合理的」计算模型。谷歌研究者的实验表明,现在有一种计算模型可能违背了这种说法。他们已经利用物理实现的量子处理器(非常低的误差率)在多项式时间进行随机的量子电路采样,但目前对于经典计算机而言不存在有效的方法。得益于这些进展,量子计算正从一个研究课题过渡到一项能够开发新的计算能力的技术,并且离有价值的短期量子应用只缺少有创造性的算法了。
虽然在实现量子霸权的道路上,谷歌可能已经实现了一个重要的里程碑,但我们和量子计算的黄金时代还有一段距离要走。
https://drive.google.com/file/d/19lv8p1fB47z1pEZVlfDXhop082Lc-kdD/viewhttps://www.zhihu.com/question/346999432
来源:机器之心 (微信号 almosthuman2014)
选自Nature
作者:Jacob D. Biamonte等
机器之心编译
参与:韩放、张倩
近日,谷歌实现量子霸权的研究引起了全球对量子计算的广泛关注,圈内人士也认为这是该领域的里程碑事件。但量子计算领域的研究,存在着大量的问题。在前不久发布的《Nature》期刊上,莫斯科斯科尔科沃科学技术研究所深层量子实验室的副教授和实验室主任 Jacob D. Biamonte 等人的一篇文章介绍了全球量子计算机研究的现状:企业急于变现,耗尽大学人才;投资倾向于硬件,软件投资不足;地缘政治升温,阻碍学术交流……这些问题已经阻碍了量子计算的发展,下一步我们该何去何从?
Jacob D. Biamonte 、Pavel Dorozhkin 和 Igor Zacharov 曾发出过这样的警告:对金钱的追逐正在耗尽大学的人才,破坏这一领域并切断科学探索之路。
一位研究人员正在研究用于冷却量子加速器的装置。图源:D-Wave Systems
在短短几年内,量子计算领域迅速从一个学术死水区变成公众和私人广泛关注的课题。「通用」量子计算机的终极目标是能够进行一切计算,同时排除噪声、故障和干扰。要实现这一目标还有几十年的路要走,但数十亿美元正投入到初步成果的商业化中。
美国 IBM 技术公司和加拿大 D-Wave Systems 公司已经在销售量子增强计算器。谷歌、微软和英特尔计划在三到五年内实现这一目标。这些早期设备应该可以比传统计算机更快地执行某些任务。然而,它们的通用性和功能都不如通用量子计算机,而且仍然会受到误差和噪声的影响。如果能够克服这两个技术挑战,机器学习和优化等领域可能会受益。
然而,对金钱的追逐正在破坏这一领域。企业正争先恐后地组建庞大的研究团队,耗尽大学的人才资源。数以百计的初创企业正在为政府资助研究的产品申请专利,切断了研究通道。
量子计算的公共资金也在爆发式增长。但它是不均衡的,并且偏向于硬件。北美机构已占据主导地位,并推动该领域朝着适合它们的方向发展。例如,他们专注于超导体技术。缺乏大型实验室和基础设施的研究人员发现很难与之竞争。随着国家安全和商业利益的升温,地缘政治壁垒也在不断上升。
所有这些都发生在一个关键时刻。摩尔定律指出,集成微芯片电路中的晶体管数量大约每两年翻一番,现在却停滞不前。机器学习正在向全新的行业敞开大门。我们不能为「量子优势」的到来等上几十年,期待那时的量子处理器解决任何现有经典计算机都无法解决的问题。这与生物技术等其他领域形成了鲜明对比。在生物技术领域,CRISPR 基因编辑的革命性技术出现在 20 年前,该领域似乎在 20 世纪 90 年代达到了顶峰。
我们呼吁学界和业界科学家以开放的科学精神开发量子应用。基础研究不能孤立地进行,也不能由政治议程来指导。这些巨额投资和由此产生的设备应该为全人类服务,就像科学本身一样。
支撑量子计算机的大多数概念都来自政府资助的研究。由于量子计算具有很大的潜在价值,许多政府正在加大支持力度。
少数几个国家——美国、英国、日本、瑞典、新加坡、加拿大和中国正在领跑。2017 年,各国承诺每年投入 1 亿至 3 亿美元用于量子计算研究;英国自 2014 年以来的政府和私人投资总额现已超过 10 亿美元。2018 年,美国和欧盟都推出了 10 亿美元的巨额计划:美国国家五年量子计划和欧盟十年量子技术旗舰计划。中国计划在 2020 年开启世界上最大的量子研究实验室,耗资 100 亿美元。
其他国家也在效仿。印度和韩国都打算每年投资数千万美元。俄罗斯还将量子技术列入其十大国家技术计划。这些国家都在建立一些领先的中心,以协调政府和私有机构的研究和开发工作。在第一阶段,大型项目会获得高达 3 亿美元的资金。
但是,这些投资产生的很多结果都不了了之。企业利益和国际政治气候的降温使得科学家更难合作和分享知识。封闭的领域会带来无意义的重复,研究者浪费了时间,最后却走入了死胡同。
例如,美国国家情报总监办公室资助的国家科学院在 2019 年的一份报告中强调了量子计算对国家安全的影响。由美国能源部资助的科学家现在被禁止与来自中国和俄罗斯等 30 多个国家的研究人员合作。
这种阴影正在影响我们在莫斯科斯科尔科沃科技学院(Skolkovo Institute of Science and Technology)的研究,这是一所英语授课的高级研究型大学,2011 年与麻省理工学院合作成立。我们选择在 Skoltech 公司工作,是因为那里的国际、世界级的协作氛围。以我们的出身为例:J.D.B. 是美国人,P.D. 是俄罗斯人,I.Z. 是一个有俄罗斯血统的荷兰公民。尽管我们的密切合作者仍在继续与我们沟通,但俄罗斯和欧盟之间的旧研究协议正在失效,并且没有讨论续签问题。欧盟量子旗舰参与者与美国、俄罗斯或中国科学家之间的伙伴关系现在需要特别谈判。
量子技术有可能成为另一场赢家通吃的「登月竞赛」。北美已经在量子硬件领域建立了不可逾越的领先地位。加州的 Google 和加拿大的 D-Wave 等公司仍在无国界地开放自家机器的访问权限,但只能通过云端访问。没人会碰处理器。
欧洲政界人士担心他们错过了这艘科技快船。该地区只有一家大型计算机硬件制造商(总部位于法国的 Atos/Bull)拥有量子技术项目。欧盟量子旗舰计划推动了硬件的开发,类似于美国正在开发的硬件;此外,他们还在研究美国尚未广泛探索的一些方法。但欧盟委员会在第一轮中未能为量子应用或算法研究拨出大笔款项——我们认为,这是一个重大疏漏。那些支持旗舰计划的人表示,他们将在随后的几轮拨款中加大对量子软件的投资。
许多研究人员希望公司能填补应用的空白。但企业对研究量子信息处理的基本理论兴趣不大,并且它们往往是孤立运营的。这意味着,在这个早期阶段,初创企业的激增和量子软件的商业化可能会阻碍理论方法和量子软件工具的发展。
过时的理论和假设也阻碍了这一领域的发展。量子增强技术的应用范围是有限的,并且还没有被规划出来。即使是已知的用途,例如对机器学习的好处,人们也很难理解。这些设备可能无法提供预期的改进。教科书上的算法(如 Shor 的量子因子分解算法或 Grover 的搜索算法)在没有错误修正的情况下似乎不适用于非理想机器。程序员是否可以编写更好的代码,使其能够在受噪声影响的实际设备上工作?
下一步怎么走?
学术研究者必须更全面地描绘出量子计算的概念和应用空间。这是一个富有成效的时刻,可以解决业界和初创企业都无法解决的难题。在有噪声的情况下,这些设备能走多远?会不会有一些发展停滞,导致投资枯竭?
政府应该将更多资金投入到量子软件。实验家们乐于为建造一台可能获得诺贝尔奖的量子处理器投入大笔资金。量子程序员同样应该自信地说出他们面临的巨大挑战。赞助商也需要明白,这是一场漫长的比赛,需要采取多种方式。即使硬件规模扩大了,我们可能仍然不确定该如何处理它。
工业界,特别是初创企业,应该与大学更紧密地合作。公司可以为小型理论项目提供资金,并投资该领域的基本理论研究。
国际合作应该受到保护。尽管存在政治分歧,各国政府仍应努力保持科学协议不受影响。科学家和投资者必须尊重这样一个事实:研究是全球性、国际性和开放性的。研究人员遍布全球各地。我们最终的工作背后有许多随机因素。仅仅因为一个人跨越了国界就断绝关系对任何人都没有好处。
中等尺寸的量子处理器很快就会出现(尽管仍然会充满噪声)。量子软件是否就绪?或者,公司会因为没有投资驱动设备的算法和想法而自责吗?原文链接:https://www.nature.com/articles/d41586-019-02675-5
来源:机器之心 (微信号 almosthuman2014)全球训练速度最快的AI集群Atlas 900发布!
2019年9月18日,,华为重磅发布一款重量级的产品——Atlas 900,华为表示这款产品是当前全球训练速度最快的AI集群。它是由1024颗昇腾910组成,只需60秒就可以完成典型网络的训练,拥有非常强大的算力,可广泛应用于科学研究与商业创新,比如天文探索、气象预测、自动驾驶、石油勘探等领域。随着人工智能以及云计算等技术的发展,会有更多的应用落地,切实改变我们的生活。
华为副董事长胡厚崑介绍,在衡量AI计算能力的金标准ResNet-50模型训练中,Atlas 900只用了59.8秒就完成了训练,这比原来的世界纪录还快了10秒。
这是什么概念?相当于短跑冠军跑完终点,喝完一瓶水才等到第二名。
胡厚崑称:“我们相信Atlas 900的强大算力,可广泛应用于科学研究和商业创新。比如天文探索、石油勘探等领域,都需要进行庞大的数据计算和处理,原来可能花费好几个月的工作,现在交给Atlas 900,就是几秒钟的事情。”
同时,胡厚崑分享了一个华为联合上海天文台与SKA共同打造的天文探索案例。
这是一张南半球的星空图,这张图上有20万颗星星,用人眼是看不见这么多星星的,这些画面来自于SKA射电望远镜的数据。
图片来源:华为微信公号
当前条件下,天文学家要从这20万颗星星中,找出某种特征的星体,相当困难,一个天文学家需要耗费169天的工作量,才能完成这项工作。现在用上Atlas 900,只用10秒,就从20万颗星星中检索出了相应特征的星体。
“为了让大家马上就能用上Atlas 900的超强算力,我们已经把它部署到华为云上,并以极优惠的价格向全球科研机构和大学开放。这是计算产业新的大航海时代,我们期待的是千帆竞发,而不是独舟奋进。” 胡厚崑表示,华为坚定不移地投入计算产业,从最难的架构突破做起,自研处理器,以此为基础打造产业,构建生态。
据了解,对计算的投入已有十年的华为,今天还首次发布了计算战略,开启计算产业新的大航海时代。华为将升级沃土计划,继续投入15亿美元,使开发者的规模扩大到500万人。
垃圾分类原来如此简单!华为的这个技术厉害了
记者 裴蕾:我现在正在2019华为全联接大会的展示区,这个展示区展示了关于人工智能以及云计算技术的最新应用成果。
我身后的就是一套人工智能的垃圾分类处理系统,它是由传感器、计算机以及各类神经网络技术结合而成的,它可以将垃圾准确而智能地分类。我们可以看到,一开始它先是由这个负责上料的六轴机器人将混合着的垃圾倒进分拣装置里,再通过传送带放到这个玻璃灯箱里。
记者 裴蕾:可别小瞧这个玻璃灯箱,里面安装的人工智能加速模块,通过视觉系统识别垃圾的种类和位置,当垃圾经过这个玻璃灯箱后,这个双臂的机器人就能通过它的手臂将垃圾正确地分成四类并且抓取到相应的垃圾桶里。比如说有塑料瓶,它就会放到可回收垃圾里;带有绿色包装的药品,它就会放到有害垃圾的垃圾桶里。
在现场的这套展示用的是4G网络,而随着5G网络的发展如果配备上5G网络能让这套系统运转的效率更高。(来源:央视财经)
每天一杯咖啡吸收宇宙能量!
重构思维方式,
AI+时代,读互联网思想(wanging0123)
联系方式:商务合作、投稿及内容合作,请联系后台小编
或271684300@qq.com